Si la Ley de IA de la Unión Europea (EU AI Act), estuviera vigente en todo el mundo, los episodios que se registraron en Estados Unidos y China, deberían ser sancionados de alguna forma. La aplicación real de la EU AI Act -la aplicación de multas- comenzará en agosto. Lo que hicieron los estados miembros del organismo es la primera ley integral en el mundo. No regula la tecnología en sí, sino el riesgo de lo que esa tecnología hace.
La UE divide la IA en cuatro niveles: Inaceptable, Alto Riesgo, Riesgo Limitado y Mínimo. En el primer grupo, se prohíbe totalmente las IAs que exploten vulnerabilidades de niños o ancianos, como el susto a una anciana en China que terminó en el hospital por el pánico que le generó un robot humanoide que se le acercó en la vía pública.
Los dispositivos considerados de Alto Riesgo deberán cumplir requisitos estrictos de seguridad. Ejemplo de ello es el robot que generó un caos en California al tener una falla técnica (el botón de apagado no estaba lo suficientemente al alcance).
Los chatbots o los robots que generen contenido, son los de Riesgo Limitado que deberán cumplir con una obligación de transparencia avisando que no son humanos. Los de Mínimo no tendrán reglas adicionales. Por ejemplo, el robot tenista que Google diseñó, siempre que se use solo para el deporte y no en entornos críticos no tendrá que dar explicaciones de nada.
En dinero
Las multas serán masivas para evitar que las empresas ignoren la ley: pueden llegar a 35 millones de euros o al 7% de la facturación global de la empresa (lo que sea más alto). Esto ha hecho que empresas como Google o Meta sean mucho más cautelosas al lanzar productos en Europa antes que en Estados Unidos o Asia.
Si un fabricante quiere vender un robot humanoide en Europa a partir de agosto de 2026, debe cumplir con tres puntos concretos. Los robots con IA deberán tener una "caja negra". Si ocurre lo de California, las autoridades deben poder saber el "pensamiento" del robot segundo a segundo para saber por qué falló.
La supervisión humana es obligatoria, debe estar diseñado para que un humano pueda intervenirlo y detenerlo en cualquier momento de forma sencilla, ese botón que le faltó al humanoide californiano. No se podrá tener un robot que parezca una persona real en una recepción sin que haya un aviso claro de “no-humano”.
Los europeos hasta diciembre de 2027, esperan que todos los robots integrados en productos (como dispositivos médicos o juguetes) cumplan con la normativa completa que se adecúa al pedido de varios referentes tecnológicos de no probar robots en la calle sin un marco legal.